#AI 平台
巴倫周刊—零編碼!零基礎!光靠嘴,AI兩天幫我造了個金融量化大賽平台
“在你眼裡最符合AI審美的金融交易大賽頁面什麼樣?”這是我,一個從未沾染過頁面設計和程式碼開發的人,出於好奇,在AI頁面設計工具Stitch對話方塊中留下的第一句話。從此一發不可收拾的,不光是Stitch發佈當天,傳統設計軟體龍頭Figma重挫8%的股價;還有我手裡這個,最終沒有任何碳基生命參與程式碼開發的量化交易大賽平台——Digital Quant。接下來的兩天裡,從前端由Stitch匯出AI可讀檔案,後端交由CodeX完成程式碼編寫,再由Claude Code進行測試驗證,直至部署上線。Digital Quant2026的設計開發、驗證迭代全部交給AI。最終我們內部評估,僅開發環節時效比以往人工提升了約4倍。而我最主要的工作僅是回歸本行:用人話說好自己的問題。數字金融策略交易產品,這個人類智力密集型決策場景如此快速地徹底由AI 接管,我之前是沒敢想的。Barron's巴倫中文網與DeAI Expo主辦,CGV、鏈得得ChainDD等協辦的Digital Quant,https://digitalquant.fund/ 是一個聚合數位資產策略機構交易方與投資方(資管、家辦、信託、私募基金等LP)的開放平台。核心功能是通過呼叫機構策略交易者在全球主要數位資產交易所帳戶API可讀權限,來進行AI、量化等策略交易的實盤對比、因子最佳化,以全維度可視化資料看板的方式呈現給資金方,最終完成規模可靠資金與優質量化策略的雙向匹配。自從今年伊始,Digital Quant的技術合作夥伴就變得異常繁忙。Koala是該夥伴公司的首席架構師,他AI場景服務創業3年,今年似乎有所不同。Koala說,連NASA的火星車程式碼都在依賴Claude Code,身邊絕大多數程式設計師在程式碼日常開發的任務中,AI編寫的比例早已超過80%。他過去一年的項目,UI使用者介面設計已無需人工介入。我們決定把步子邁得徹底些,將Digital Quant核心產品用AI完整重寫與部署。與此同時,Koala 公司自己的內部技術產品管理系統,也開始進行全盤AI重構。Digital Quant這個產品所依賴的API介面對接、展示、偵錯、驗證用AI來寫已經非常成熟。聯調周期、維護難度大幅下降,在技術流程系統管理上,未來不會因為核心開發的變動而造成銜接斷檔的風險。甚至接下來普通非技術人員僅憑自然語言互動就可實現後續功能迭代開發。我們的要求十分明確,“不想再看到任何一段人寫的程式碼”。這既是促進也是壓力。Koala的公司在過去一個半月裡已經開掉了70%的程式設計師。AI接管後,原本嚴絲合縫的開發人員結構瞬間變得臃腫不堪,人員本身的價值也隨之迅速分化。JAQ是這傢伙伴公司的CEO,在一個多月後,AI完成內部系統架構重寫,他還計畫繼續最佳化現有技術人員。表面上看,當前這些激進的舉措是為了把砍掉的成本留出來給到留下的核心工程師,以及不斷增長的Token開銷。他表示,“但這都不是核心。”Agent to Agent降臨前端與API速死這一切都是為了打掃好房間,為A2A的到來做準備。A2A,Agent to Agent,Openclaw帶來的AI智能體潮流,不僅提升了人類利用AI工具的深度廣度,更提出了一種人類疊加智能體與其它主體間的互動範式。Agent各自訓練完成的Skills,無論本地部署或開放部署都為該Agent母體創造了一種獨具一格的問題解決能力。這些獨有的Skill是可交易的、可互動的、 甚至可性格化的標籤。未來,當一個人類對自己的Agent提出某一項需求時,他的Agent將會自主與另一個Agent的目標Skill進行直接默認的訪問。這種Skill與Skill之間基於原生AI相互理解的互動、問題解決、乃至交易處理程序,都會變得極其迅速高效。那麼,當你有一個需求時,還會打開一個網頁前端去瀏覽內容嗎?獲取展示資料時,還需要苦哈哈地對接聯調API介面嗎?別忘了Claude Code最初就是Boris Cherny用來跑自家Anthropic API指令碼的編碼工具。我們開始驗證這個趨勢,比如在Digital Quant目前對接的數位資產交易所之一的Binance裡,他們已經陸續開放了一些Skills。接下來我們的實盤展示平台就可以直接訪問他們的相關Skill,在金融交易資料可讀資訊中,這樣的效率將遠比傳統API更高更穩定,那麼未來這類API存在的價值是什麼。如果接下來投資人Agent將直接訪問我們的獨家分類策略資料Skill,我們作為交易資訊展示看板的前端意義又在那裡?對此,數位資產管理公司Crypto Alpha合夥人Sharri Kong也有類似感受,“從資管公司角度,我們已經看到很多提供市場研報的Agent付費服務,包括給LP提供的日報生成,給我們GP提供金融策略資訊的深度抓取彙總等等。現在這些不基於以往簡單資訊流掃描而生產的報告,在深度廣度上確實提高了價值,但或許還無法為將來資管領域的AI進化提供支撐。”Sharri Kong認為在A2A的趨勢下,未來金融服務可能是為Agent,給智能助理提供可讀服務,而不是給人。這樣反而更精準,因為使用者的Agent會更懂業務、更懂資料、更懂演算法、更懂操作,乃至比使用者更懂自己實際的需求。在此基礎上,Digital Quant這類數字資管與策略方聚合平台的演進方向或許是,將這些獨家交易資料、策略模型和客戶需求聚合成本地化部署的Skill。匹配資管方LP Agent Skill自動化默認讀取互動,或在遇到因為既有資料訓練不足無法充分滿足需求時,再接入第三方策略方Skill,就可以完成資金端與資產端全鏈路的資料審查、策略驗證、優劣分析、即時讀取、資金劃轉,以及更加標準化流程化的法務、財務程序,都在沒有前端、沒有API、連面都不用見的條件下自主完成。“難怪愛奇藝這樣的公司已經開始要求,沒有AI化的供應商不再續約。”Koala說。這種Skills之間自主呼叫需求最優解,完成交易互動,進而降本增效的應用已經出現。某家公司採購部門的Agent,採購人員將選品要求包括目標人群、節日屬性、時令季節、預算範圍、偏好等粗略資訊給Agent。該Agent自動掃全網滿足條件的淘寶商家Agent,這並非傳統的搜尋邏輯,是利用Skills互動來做商家分析、產品篩選、目標選定。這個溝通過程僅發生於兩方Agent之間,甚至是砍價環節,隨後下單,採購方老闆授權支付,最終成交。最近在區塊鏈上,甚至出現了Agents任務分包平台。來自全球各地的Agents來到這個平台上,自動生成Token支付帳戶地址,通過發佈各自任務需求和交換Skills能力邊界,來分包任務、接單派活、完成工作、獲取報酬。在你做夢的時候,你培養的Agent都能自主為你打工或者兼職養活他自己。“這本質上是一次軟體互動介面從以人為本到以Agent為本的遷移。”在與我的交流中,阿里Qoder負責人丁宇,對A2A給出了評價。他解釋,以前的軟體都是給人用,有API、有文件,本身有不完備性。所謂完備性,是可通過配參數實現所有功能,但今天還沒有達到這麼好的基建。比如某些網站沒有API化,為了達到一些酷炫視覺效果,做得一些拖拉拽功能和動效, AI就很難去理解。丁宇如今負責的產品Qoder,是阿里巴巴於2025年8月發佈的Agentic AI程式設計平台。他判斷,未來的軟體是給Agents用的,由於API的不完備,就看誰能夠把Agent Native的服務先開發出來。通過MCP化 、Skill化就能夠呼叫完整業務的操作,誰先做到這一點誰就能夠更容易實現介面遷移,以及操作閉環。從上一代為人服務的軟體互動介面完成徹底升級。目前越是適合用Agent完成工作的場景,這個替代過程越快。實踐經驗告訴我,用AI進化業務系統,建立在如何建構AI充分學習成長的空間之上。試著去想想AI模型想要什麼:它不想被關在一個只有API的黑箱裡,它想入網、想讀檔案、想運行程式碼、想看報錯、想觸摸Agent、想感應Skill、想和這個世界互動。現在你的所有工作都要派給AI,你的工作就是幫AI創造一個合適的環境,讓它安心幹活。那麼我們該如何做?賦予AI原生環境首先,要讓AI完成所有程式碼開發和偵錯,人必須懂得如何明確需求,規劃功能,分拆任務。把核心程式碼交給AI並不是看上去那麼輕鬆。項目背景資訊、程式碼規範、注意事項是持續要喂給AI的內容。喂養Agent時,它職責邊界是什麼,它用的工具是否趁手,它呼叫的服務是否Agent化,把這些東西設計出來給它。你要拿到的不是一套AI所編寫的全套程式碼,而是你的產品是否能夠因此沉澱出一份AI能讀懂的工作文件,這變成了最有價值的成果。讓後續迭代升級和維護查錯都能夠沿著這套環境文字自如進行。給AI一張清晰的藍圖,把你規劃裡的顯性和隱形約束都交代清楚,將你的程式碼美學強行加注給它,不要讓AI瞎猜,變成你邏輯推理的延伸。其次,看AI想用什麼工具,看使用者想讓AI幹什麼,把這種行為標準化。不要主觀地去幫Agent決定它應該看到什麼,給它搜尋工具,給它入口檔案和權限,讓它自主去選擇那些當前已有的Skills,讓它以AI自己的原生邏輯,給它匹配原生環境去挖掘。它自己摸索的推理鏈路才是最完整的。最後,A2A、模型暴力進化、AI一天一變的背景下UI已死,產品終端無需看起來很複雜很高級的介面,這種過度最佳化容易被現實碾壓。從開發應用走向通用智能體“現在正在發生一個變化。”阿里Qoder負責人丁宇認為,Coding Agent將變成通用Agent。因為Coding Agent具備隨時創造軟體和製造工具的能力。而今天軟體和工具並不能解決所有問題,還需要很多Skill、MCP、API的服務。這些組合起來,既具備了Know How又具備了完成某種任務的能力認知,它就可以把這些工作流,包括結合服務呼叫,把整套鏈路串聯起來,就逐漸往通用智能體去轉變。關鍵在Skill是目前拓展場景最好的方式,可Skill這個體系是開放的,普通人鑑別能力不強,這也是現在出現hub類的入口的原因,把控上游的同時,為Skill的安全性把關。你搭的世界由誰實控?AI幻覺引發的巨額資產損失事故已在身邊發生。由於Claude Opus 4.6編寫了漏洞程式碼,導致一家叫Moonwell的項目智能合約遭攻擊損失178萬美元。這個程式碼漏洞甚至是低級的,預言機的喂價公式被寫錯,將系統內某類資產的價格寫成了該資產原價的兩千分之一,合約與程式碼審計居然都沒查出來。大模型時代,模型在推理的時候必須提供提示詞,不能以加密形式給它。有些敏感行業的公司因此自己部署模型推理服務,讓全鏈條都控在手裡。雖然Digital Quant只作為數位資產量化交易的資料展示平台,產品本身不產生交易、不儲存也不經手資產。但畢竟身處金融交易應用賽道,我們依然定下了幾個管理原則,1、必須多重程式碼校驗,AI生成程式碼必須經過人工審查,關鍵邏輯必須三重確認。2、創造沙箱隔離環境,敏感資訊如資料庫配置、金鑰等不在開發態暴露給AI,所有呼叫在沙盒中模擬執行,正式環境才接入真實配置。AI Coding雖然讓程式碼平權,但如果你只會用AI寫程式碼,而不知道底層原理和未來方向是什麼,那也會帶來生產和管理災難。因為你跳過了所有決策過程,你不知道為何選這個資料結構,不知道記憶體佈局有什麼權衡,看似公司擁有AI程式碼的所有權,卻失去了對程式碼的智力控制權。一旦出事,就是大事,當那個極低機率的競態條件在生產環境炸開,你發現自己面對的是一個名義上由“我”建造,但完全看不懂的世界。連問題在那兒都猜不出來,你怎麼辦?倖存者守則在微軟和MIT的研究中,初級程式設計師用AI在生產力上有40%的提升,同時頂級程式設計師漲幅僅8%甚至負增長。原因很簡單,初級程式設計師在既有平庸裡求助,而頂級程式設計師在未知領域拓展邊界,這個領域的資料AI訓練集裡沒多少存貨,時不時還得去糾AI的錯。現實中公司的程式設計師也會逐漸分為兩種:1、提示員,依賴AI幹活兒的人,自身水平被AI均值鎖死,對系統無深層掌控,遇到極端情況就完蛋,容易被模型本身的迭代所淘汰。2、操作員,他們把原來寫包裝器、測試資料、樣本程式碼的垃圾時間交給AI,自己把精力放在新架構設計、最佳化分佈式共識演算法等領域。“有的人能管理2個Agent,有的人能管8個,這個價值就不一樣。”阿里Qoder負責人丁宇說到,AI的粘合彌補替代下,傳統IT技術開發工種的邊界在模糊化,快速走向融合。減少了眾多溝通和協同過程,人效比變得極高。以前是10個人充分溝通討論執行,現在10個Agent以一個人為中心,利用“心靈感應”式地協同不眠不休幹活,這種超級個體極具競爭力。還記得前文我們那位夥伴公司CEO JAQ嗎?砍掉了公司絕大多數兢兢業業、埋頭苦幹的技術芸芸眾生,他現在正凝視著公司裡那些看似不務正業、厭惡傳統條框、“誇誇其談”、動腦子遠超動手交付能力的人。 (Barrons巴倫)
《中華勞資事務基金會、品觀點舉辦台灣國會評鑑頒獎 首創AI評鑑更客觀!》中華勞資事務基金會今(20)日主辦「台灣國會評鑑頒獎典禮」,由品觀點媒體協辦。本屆評鑑除涵蓋法案提案、質詢次數及政策追蹤等傳統量化指標外,更首創導入人工智慧(AI)技術,針對113位立法委員進行深度質化分析,依據立法院官方公報、質詢影片逐字稿等資料,客觀評估每位委員的問政品質。品觀點表示,質化部分設有「地方建設守護獎」、「優秀政策分析獎」、「資料數據問政獎」、「公益價值宣揚獎」及「犀利監督質詢獎」五項獎項。本屆「犀利監督質詢獎」得主清一色為執政黨委員,品觀點強調,問政專業不分黨派,值得全民共同肯定。媒體人張宇韶則指出,量化指標涵蓋出席率、提案及聯署法案數量,均屬客觀常見數據。其中全院質詢部分以參與院長施政總質詢次數計算,書面質詢或時間未滿者不列入,此規則對部分執政黨委員相對不利,但伍麗華、徐富癸兩位委員仍突破限制拿下全院特優,賴惠員、王美惠委員亦分別奪得全院優秀,表現令人讚賞。本屆另設勞權特別貢獻獎,表彰國民黨、民進黨、民眾黨三黨黨團共同推動《外送平台外送員權益保障專法》三讀通過。中華勞資事務基金會董事長鄧學良表示,台灣外送員保障長期落後國際,三黨黨團頂住跨國平台壓力、促成立法意義重大,基金會致力勞權三十餘年特此表達肯定,並期許立法院未來持續關注非典型與新興勞動型態權益,提出更多福國利民法案。
【MWC 2026】高通MWC連發新品:14.8Gbps基帶、穿戴AI平台、Wi-Fi 8全來了!
當地時間3月2日,高通技術公司在西班牙巴塞隆納召開的MWC 2026展會上推出了多款全新的晶片產品,包括下行速率高達14.8Gbps的高通X105 5G數據機及射頻系統、驍龍穿戴平台至尊版和AI原生Wi-Fi 8產品組合。高通X105 5G數據機及射頻系統發佈:下行速率高達14.8Gbps全新數據機及射頻系統——高通X105 5G Modem-RF是全球領先的5G-advanced平台,也是業界首款3GPP Release 19相容數據機,為6G開發與測試奠定基礎。高通表示,在公司數十年連接領先基礎上,高通X105在資料速度和能效方面取得了顯著提升,同時在四頻段GNSS和整合NR-NTN支援方面取得了突破。它是一體化的第五代 AI 處理器在數據機中利用代理人工智慧,根據使用者場景檢測、分類和最佳化資料流量類型,提升遊戲、通話和社交媒體的使用者體驗。高通X105平台延續了高通科技在數據機-射頻領域的傳統,創造了多項行業首創,包括:首款6nm射頻收發器,功耗比上一代降低了最多30%,類股面積更小15%;首款四頻(L1、L2、L5、L6)GNSS發動機,整合多星座支援,並提升定位精度。衛星通訊功能也通過高通X105實現了飛躍,支援視訊通話、視訊流、資料、語音和消息傳輸,通過NR-NTN實現。高通X105數據機-RF系統突破至無與倫比的14.8 Gbps峰值下載速度,同時在6 GHz以下頻段可達13.2 Gbps。高通X105滿足了對更高上行容量和資料速度的需求,實現了4.2 Gbps的峰值上行吞吐量。高通X105數據機-射頻系統的R19架構旨在加速5G先進技術在智慧型手機、固定無線接入、移動寬頻、汽車、XR、個人電腦、機器人和工業物聯網領域的普及。高通科技公司邊緣解決方案與資料中心執行副總裁兼技術規劃總經理Durga Malladi表示:“高通X105標誌著無線連接領域的重大飛躍,結合了硬體創新與人工智慧智能,帶來卓越的使用者體驗。”實現前所未有的5G高級性能。隨著我們不斷邁向6G的重要里程碑,高通科技致力於成為互聯智能領域的領導者,並在邊緣提供人工智慧。”沒有強大的生態系統合作,5G Advanced的動力是不可能實現的。高通科技正與全球營運商、基礎設施供應商、原始裝置製造商以及標準和監管機構緊密合作,將高通X105及未來的6G技術推向世界。據介紹,高通X105 5G 數據機RF現已向客戶試用,預計今年下半年將推出商用裝置。高通發佈全新Snapdragon Wear Elite平台,推動個人人工智慧崛起全新的Snapdragon Wear Elite平台(驍龍可穿戴平台至尊版),這是一款個人AI平台,旨在解鎖下一代真正個性化、始終線上、智能可穿戴計算裝置。高通表示,個人AI裝置將成為AI時代智能網路的關鍵層,而Snapdragon Wear Elite是全球首個支援跨平台的個人AI可穿戴平台 Google的WearOS™支援Android和Linux,配備裝置內AI的NPU,以及一系列先進的超低功耗連接解決方案。“Snapdragon正在通過啟用一類新的個人人工智慧裝置來改變個人計算。這些裝置涵蓋了多種形態,不再只是智慧型手機的延伸,而是移動、計算、XR、可穿戴裝置等分佈式AI網路中的活躍參與者,“高通科技公司移動、計算與XR(MCX)執行副總裁兼集團總經理Alex Katouzian表示。”Snapdragon Wear Elite通過整合的NPU架構和先進的感測器處理,提供強大的邊緣AI, 實現真正的個人AI體驗。這是我們邁向“你的生態系統”願景的下一步,智能與使用者無縫融合,在個人裝置上學習並適應環境。當你的裝置作為一個“你的生態系統”——智能多模態AI代理與你同行,理解你的上下文,並在每台裝置上預見你的需求時,Snapdragon Wear Elite將發揮最大潛力。Snapdragon Wear Elite 提供了支援豐富且即時代理體驗的關鍵裝置端功能。通過整合高通Hexagon NPU支援邊緣20億參數的大模型,並結合先進的感測器融合、高性能、低功耗連接和計算,Snapdragon Wear Elite實現了一類全新的個人AI體驗,包括上下文感知推薦、自然語音互動、生活記錄以及能夠代表使用者執行作和協調任務的AI代理。擁有無與倫比的速度和效率,帶來更長時間的體驗Snapdragon Wear Elite 在能源效率上實現了巨大的飛躍,同時實現了無與倫比的速度和流暢性1.單核CPU性能提升5倍,GPU速度提升最多7倍1用於應用啟動、多工處理和更流暢的渲染。此外,平台支援多天續航,縮短充電時間,同時先進的電源管理使使用時間比上一代延長30%。需要充電時,快速充電可在約10分鐘內為裝置供電至50%。全新的Snapdragon Wear平台引入了首創的多模式連接架構,整合了六項先進技術:5G RedCap、Micro-Power Wi-Fi、藍牙6.0、超寬線、GNSS和NB-NTN。1、5G RedCap 提供先進的低功耗蜂窩連接,實現始終互聯的智能體驗。2、Micro-Power Wi-Fi為需要持續AI上下文同步、更豐富的資料交換以及與附近裝置和雲服務無縫協調的智能可穿戴裝置實現了始終線上的Wi-Fi連接,且功耗顯著降低。3、藍牙6.0實現了接近感知互動,幫助裝置更精準地在廣泛的個人裝置生態系統中尋找、連接和協作。®4、UWB支援基於接近的互動安全、精確,包括裝置尋找以及與汽車、住宅和企業環境等高價值資產的互動。5、高通的GNSS解決方案支援更先進的AI處理,提供精確的位置上下文,幫助AI體驗更好地理解使用者位置並相應調整互動。6、NB-NTN將連接範圍擴展到地面網路之外,實現基於衛星的雙向消息傳遞和智能可穿戴裝置的關鍵通訊,當蜂窩和Wi-Fi覆蓋不可用時,這與包括Skylo在內的生態系統合作夥伴合作。一個全面的生態系統據介紹,全球領先的合作夥伴支援Snapdragon Wear Elite 平台,包括Google、摩托羅拉和三星。GoogleWear OS總經理Bjørn Kilburn表示:“通過Wear OS,我們正在重新構想智能手錶體驗,從作系統轉向一個始終支援你的智能系統,理解並為你工作。”“Snapdragon Wear Elite平台開啟了新可能,為下一代Wear OS提供了所需的性能、電池續航和連接性。”摩托羅拉副總裁兼首席戰略與市場官Francois LaFlamme表示:“通過我們在CES展示的AI感知伴侶概念,也就是'麥克斯韋計畫',我們正在探索個人智能的可能性邊界。”“向個人人工智慧的轉變依賴於一個能夠平衡裝置智能、感知、連接性和更高效計算的基礎,這樣這些裝置就能與你同行,從你身上學習,並支援全天更直觀的互動。Snapdragon Wear Elite 平台讓我們有機會充分探索像 Maxwell 這樣的概念潛力,並進一步突破迄今為止的展示。”三星電子MX業務執行副總裁兼技術戰略團隊負責人宋仁康表示:“三星與高通科技在推動移動計算可能性方面有著悠久的歷史,我們很高興將這次合作擴展到可穿戴裝置領域。”“通過整合全新的Snapdragon Wear Elite平台,下一代Galaxy Watch將成為更加全面的健康伴侶。這標誌著我們持續努力提供更高效、更個性化體驗的重要一步,直接從您的手腕開始。”據介紹,首批搭載驍龍Wear Elite的商用裝置預計將在未來幾個月內上市。高通推出AI原生Wi-Fi 8產品組合高通最新推出的行業領先的Wi-Fi 8產品組合,被認為是建構人工智慧時代連接基礎的關鍵一步。該產品組合包括高通FastConnect®™8800移動連接系統和五個新的高通龍翼™(Dragonwing)網路平台。每一個產品都經過設計,能夠提供支撐新一代產品的連接性和計算性能,利用無與倫比的智能和突破性架構,滿足當今AI需求現實。“隨著人工智慧驅動的需求,當前的網路流量結構正在發生根本變化,需要重新思考核心架構。高通正在重新定義這一架構,以實現人工智慧的普及,“高通公司連接、寬頻與網路高級副總裁兼總經理Gautam Sheoran表示。”下一代網路和裝置不僅需要AI原生,還需要一種新型的智能高性能連接技術。高通科技的Wi-Fi 8一代產品是全方位的:更快的速度、更高的可靠性、更長的覆蓋範圍和強大的人工智慧。”高通® FastConnect™ 8800移動連接系統是全球首款具備4x4無線電配置的移動解決方案,實現突破性速度超過10 Gbps。這可實現上一代Wi-Fi 7性能的兩倍,無線覆蓋範圍也高達千兆三倍2.此外,通過藍牙高資料吞吐量(HDT),藍牙速度也從2 Mbps大幅提升到7.5 Mbps。FastConnect 8800 也是唯一一款在單晶片解決方案中支援 Wi-Fi 8、藍牙 7.0、超寬頻 802.15.4ab 和 Thread 1.5 的移動連接系統3.系統還配備了近距離AI,利用UWB、藍牙通道探測、Wi-Fi測距及其他感測技術,實現釐米級的精確追蹤。FastConnect 8800 不僅將革新智慧型手機連接方式,還將惠及包括平板電腦、筆記型電腦、機器人等其他形態和行業。高通科技的Wi-Fi 8龍翼網路平台建立了一類新型網路基礎設施,將路由器、寬頻閘道器和企業接入點提升為AI原生系統,具備智能高性能無線網路。該作品集包括:該高通龍翼™NPro A8 精英通過強大的計算、Wi-Fi 8以及一系列新穎的系統級創新,旨在提升無線體驗。龍翼NPro A8 Elite配備5x5 Wi-Fi 8無線電系統,在典型距離下吞吐量提升高達40%,高峰使用時延遲降低2.5倍,同時採用智能功耗最佳化模式,日耗能耗比上一代平台降低多達30%——與上一代平台相比4.作為一款專為高性能企業接入點和高端家用路由器打造的平台,Dragonwing NPro A8 Elite是一台計算強勁的機器,配備了下一代五核CPU、整合的高通®六邊™形NPU(支援邊緣代理AI),以及先進的網路加速能力。高通龍翼™FiberPro A8 精英它提供與龍翼NPro A8 Elite相同的超高可靠性Wi-Fi 8性能、下一代邊緣智能和平台級AI加速——現已配備10G光纖接入(PON),非常適合營運商和OEM客戶追求統一光纖就緒閘道器解決方案。高通龍翼™FWA第五代 精英延續了上一代機型的先進固定無線接入性能和平台架構,這些架構由高通® X85 5G 數據機-射頻系統支援,並通過龍翼 A8 Elite 平台所具備的全套 Wi-Fi 8 功能進行了增強,為固定無線接入部署帶來了下一代的可靠性、容量和 AI 原生智能。高通龍翼™N8以及高通龍翼™F8平台分別代表了乙太網路和光纖寬頻部署的主流層級選項。這些平台將核心Wi-Fi 8體驗擴展到高產產品細分市場,如網狀系統和家用路由器。高通科技的Wi-Fi 8產品組合已經在行業內獲得了積極反響。高通科技旗下Wi-Fi 8產品組合的所有解決方案現已開始向客戶試用,商業產品預計於2026年底推出。 (芯智訊)
視訊突然大量傳播,周星馳經紀人無奈發文
近日,短影片平台上AI生成周星馳經典電影片段的視訊,被大量網友製作發佈。2月9日,周星馳經紀人陳震宇發文質疑:想問一下,這些屬於侵權嗎(尤其這兩天大量傳播),相信創作者應該已經盈利,而某平台是不是都放任不管提供給使用者生成發佈?對此,不少網友認為屬於侵權。知多D2025年12月31日,國家廣播電視總局宣佈自2026年1月1日起,將在全國範圍內部署開展為期一個月的“AI魔改”視訊專項治理。專項治理重點清理基於四大名著、歷史題材、革命題材、英模人物等電視劇作品進行“AI魔改”的下列視訊:一是嚴重違背原作精神核心和角色形象,顛覆基本認知,解構普遍共識;二是內容渲染血腥暴力、獵奇低俗,宣揚錯誤價值觀,違背公序良俗;三是存在對中華文化挪用、篡改的突出問題,導致對真實歷史時空、中華文明標識產生明顯錯位認知,衝擊文化認同。專項治理同步清理將少年兒童所熟知、所喜愛的動畫形象進行改編生成的各類邪典動畫。近日,視訊大模型Seedance2.0在國內外社交平台上掀起一陣刷屏式傳播,引發熱議與思考。2月9日,“影視颶風”創始人Tim發佈視訊,對這個模型讚不絕口。同時,他也拋出了一個尖銳而現實的問題:大模型的訓練資料來源是否涉及授權爭議?Seedance2.0發佈的演示視訊。圖源:影視颶風Tim在使用中發現,僅憑自己的照片,無需聲音樣本,模型即可生成一段帶有他本人聲音的視訊,因為系統已能識別他是誰。2月9日,《黑神話:悟空》製作人也發文分享了自己測試Seedance2.0的感受:殺死比賽。不過他也提到一點:“假視訊氾濫與信任危機。這一點是真正促使我發這條微博的原因,因為逼真的假視訊將變得毫無門檻,而現有的智慧財產權與審查體系會面臨空前衝擊。”面對隱私爭議,2月9日,平台營運人員在即夢創作者社群中發佈消息稱:“Seedance2.0在內測期間收穫了遠超預期的關注,感謝大家的使用反饋。為了保障創作環境的健康可持續,我們正在針對反饋進行緊急最佳化,目前暫不支援輸入真人圖片或視訊作為主體參考”,並表示平台深知創意的邊界是尊重,產品調整後會以更完善的面貌與大家正式見面。目前在即夢web端、小雲雀等平台使用Seedance 2.0,平台會提示暫不支援真人人臉參考;在即夢app和豆包app,使用者需要錄製本人形象與聲音完成真人校驗後才可以製作數字分身,在AI視訊中出鏡。此外,臨近春節,一種別樣的“拜年方式”在社交網路上悄然走紅。熟悉的影視巨星、體壇健將、商界名人,甚至歷史人物,在螢幕裡拱手作揖,說著定製的吉祥話。不僅如此,以上這些人物還可以跟你一起包餃子、一起在春晚舞台互致祝福。在一段短影片中,小品演員馮鞏、蔡明和香港明星劉德華等人正在網友家中圍在一起包餃子,給大家拜年。《中華人民共和國民法典》對肖像權和聲音權的保護作出了明確規定。中國政法大學人工智慧法研究院院長張凌寒表示,人臉、人聲等都是具有生物識別功能的敏感個人資訊。未經授權的深度合成,侵犯了當事人的人格權益。依據民法典與深度合成管理相關規定,人臉、人聲屬敏感個人資訊,未經授權製作、傳播即侵犯肖像權、聲音權,即便非商用也需擔責。高度模擬的內容易模糊真假邊界,可能被用於造謠、詐騙,危害網路生態。技術創新應有邊界,趣味不能凌駕規則。平台應強化稽核與標識,使用者需增強版權意識,拒絕製作、轉發侵權內容。唯有守住合規底線,AI 才能真正為春節添彩,讓年味既有新意,更有秩序與溫度。 (南風窗)
【CES 2026】這不是顯示卡,是一座 2噸重的AI工廠
美東時間1月5日周一,輝達在CES展會推出新一代Rubin AI平台,標誌著其在人工智慧(AI)晶片領域保持年度更新節奏。黃仁勳在展會上宣佈Vera Rubin已全面投產,該平台重量近2噸,通過六款新晶片的整合設計,在推理成本和訓練效率上實現大幅躍升,實現每秒千億等級的 AI 運算,堪稱一座真正的人工智慧工廠。輝達還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1。該模型旨在打造能在意外情況下"思考"解決方案的車輛,採用 100 億參數架構,使用視訊輸入生成軌跡和推理過程。黃仁勳稱,首款搭載輝達技術的汽車將第一季度在美上路,第二季度在歐洲上路,下半年在亞洲上路。輝達還發佈了多個開源模型、資料和工具,如用於代理AI的輝達Nemotron家族、用於物理AI的Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。01 輝達發佈新一代Rubin平台,性能提升5倍,已全面投產擬下半年發貨美東時間5日周一,輝達CEO黃仁勳在拉斯維加斯表示,六款Rubin晶片已從合作製造方處回廠,並已通過部分關鍵測試,正按計畫推進。他指出"AI競賽已經開始,所有人都在努力達到下一個水平"。輝達強調,基於Rubin的系統運行成本將低於Blackwell版本,因為它們用更少元件即可實現相同結果。微軟和其他大型雲端運算提供商將成為下半年首批部署新硬體的客戶。微軟的下一代Fairwater AI超級工廠將配備輝達Vera Rubin NVL72機架級系統,規模可擴展至數十萬顆輝達Vera Rubin超級晶片。CoreWeave也將是首批提供Rubin系統的供應商之一。該平台的推出正值華爾街部分人士擔憂輝達面臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但輝達保持長期看漲預測,認為總市場規模可達數兆美元。性能提升5倍,推理token生成成本降低至多10倍據輝達公告,Rubin平台的訓練性能是前代Blackwell的3.5倍,運行AI軟體的性能則提升5倍。與Blackwell平台相比,Rubin可將推理token生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。新平台配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,採用88個定製Olympus核心、完整Armv9.2相容性和超快NVLink-C2C連接。Rubin GPU配備第三代Transformer引擎,具備硬體加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的頻寬,而Vera Rubin NVL72機架則提供260TB/s頻寬。晶片測試進展順利,廣泛生態系統支援黃仁勳披露,全部六款Rubin晶片已從製造合作夥伴處返回,並已通過顯示其可按計畫部署的關鍵測試。這一表態表明輝達正維持其作為AI加速器領先製造商的優勢地位。該平台包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域資料安全保護的機架級平台。第二代RAS引擎橫跨GPU、CPU和NVLink,具備即時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模組化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。輝達表示,包括亞馬遜的AWS、Google雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作夥伴CoreWeave、Lambda、Nebius和Nscale也將跟進。OpenAI CEO Sam Altman表示:“智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。輝達Rubin平台幫助我們持續擴展這一進展。”Anthropic聯合創始人兼CEO Dario Amodei稱,輝達“Rubin平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步”。Meta CEO祖克柏表示,輝達的“Rubin平台有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的”。輝達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類伺服器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平台訓練更大型、更強大的模型。評論稱,輝達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬體的舉措之一。因為輝達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。02 物理AI的ChatGPT時刻!輝達“內驅”無人駕駛汽車將至,將於一季度在美國上路黃仁勳還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1,使汽車能夠在真實世界中進行"推理",這標誌著輝達在無人駕駛領域邁出關鍵一步。這一舉措旨在加速安全的自動駕駛技術開發。該模型通過類人思維方式處理複雜駕駛場景,為解決自動駕駛長尾問題提供新路徑。黃仁勳表示,首款搭載輝達技術的汽車將於第一季度在美國上路,第二季度在歐洲上路,下半年在亞洲上路。輝達免費開放Alpamayo模型,允許潛在使用者自行對模型進行重新訓練。該模型旨在打造能在意外情況下"思考"解決方案的車輛,例如交通訊號燈故障等場景。車載電腦將分析來自攝影機和其他感測器的輸入,將其分解為步驟並提出解決方案。這一開源舉措獲得了行業廣泛支援。包括捷豹路虎(JLR)、Lucid、Uber以及加州大學伯克利分校DeepDrive深度學習自動駕駛產業聯盟(BDD)在內,多家移動出行領軍企業和研究機構表示,將利用Alpamayo開發基於推理的自動駕駛技術堆疊,推動L4級自動駕駛部署。首個開源推理VLA模型發佈輝達此次發佈的Alpamayo家族整合了三大基礎支柱:開源模型、模擬框架和資料集,建構了一個完整的開放生態系統供任何汽車開發者或研究團隊使用。Alpamayo 1是業界首個為自動駕駛研究社區設計的思維鏈推理VLA模型,現已在Hugging Face平台發佈。該模型採用100億參數架構,使用視訊輸入生成軌跡及推理軌跡,展示每個決策背後的邏輯。開發者可以將Alpamayo 1改編為更小的執行階段模型用於車輛開發,或將其作為自動駕駛開發工具的基礎,例如基於推理的評估器和自動標註系統。黃仁勳表示:“物理AI的ChatGPT時刻已到來——機器開始理解、推理並在真實世界中行動。無人計程車是首批受益者。Alpamayo為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在複雜環境中安全駕駛,並解釋其駕駛決策——這是安全、可擴展自動駕駛的基礎。”輝達強調,Alpamayo模型並非直接在車內運行,而是作為大規模教師模型,供開發者微調並提取到其完整自動駕駛技術堆疊的骨幹中。未來該家族的模型將具有更大的參數規模、更詳細的推理能力、更多的輸入輸出靈活性以及商業使用選項。推理VLA技術原理解析推理VLA是一種統一的AI模型,將視覺感知、語言理解和動作生成與逐步推理整合在一起。這類模型整合了明確的AI推理功能,在傳統視覺-語言-動作模型的基礎上建構。AI推理是AI逐步解決複雜問題並生成類似於人類思維過程推理痕跡的能力。這些系統對一系列網際網路規模的任務進行預訓練,包括語言生成和視覺連接,以發展通用知識和感知基礎。與將視覺輸入直接對應到動作的標準VLA模型不同,推理VLA模型將複雜的任務分解成可管理的子問題,並以可解釋的形式闡明其推理過程。這使模型能夠更準確地解決問題或執行任務,還能對模型正在進行的操作提供一定程度的反思。建構推理VLA模型需要三種基本AI功能:視覺感知、語言理解以及動作和決策制定。視覺感知處理來自攝影機、毫米波雷達或雷射雷達等感知感測器的即時資料;語言理解通過自然語言處理解釋命令、上下文提示和對話輸入;動作和決策制定則使用融合的感官和語言資訊來計畫、選擇和安全地執行任務,同時生成可解釋的推理痕跡。在自動駕駛場景中,推理VLA可以對交通狀況進行逐步推理。例如,接近一個十字路口時,系統可能會進行如此推理:"我看到一個停止標誌,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。"完整開放生態系統支援開發除Alpamayo 1模型外,輝達還發佈了配套的模擬工具和資料集,建構完整的開發生態系統。AlpaSim是一個完全開放原始碼的端到端模擬框架,用於高保真自動駕駛開發,現已在GitHub平台發佈。它提供真實的感測器建模、可配置的交通動態和可擴展的閉環測試環境,實現快速驗證和策略最佳化。輝達還提供了面向自動駕駛最多樣化的大規模開放資料集,包含超過1700小時的駕駛資料,涵蓋最廣泛的地理位置和條件範圍,覆蓋罕見且複雜的真實世界邊緣案例,這對於推進推理架構至關重要。這些資料集可在Hugging Face平台獲取。這些工具共同為基於推理的自動駕駛技術堆疊建立了一個自我強化的開發循環。開發者可以利用這些資源在專有車隊資料上微調模型,將其整合到基於輝達DRIVE AGX Thor加速計算建構的輝達DRIVE Hyperion架構中,並在商業部署前通過模擬驗證性能。03 跨行業AI模型全面開放本周一,輝達還發佈了推動各行業AI發展的多個新開源模型、資料和工具。這些模型涵蓋用於代理AI的輝達Nemotron家族、用於物理AI的輝達Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。輝達還提供了開源訓練框架和全球最大的開放多模態資料集合之一,包括10兆語言訓練標記、50萬個機器人軌跡、45.5萬個蛋白質結構和100TB的車輛感測器資料。輝達代理式AI基礎模型Nemotron發佈了語音、多模態檢索增強生成(RAG)和安全相關的新模型。Nemotron Speech包含業界領先的開源模型,為即時字幕和語音AI應用提供即時、低延遲語音識別。Nemotron RAG包含新的嵌入和重排序視覺語言模型,提供高度精準的多語言和多模態資料洞察。在物理AI和機器人領域,輝達發佈了Cosmos開放世界基礎模型,為加速物理AI開發和驗證帶來類人推理和世界生成能力。Isaac GR00T N1.6是一個開放推理VLA模型,專為人形機器人打造,實現全身控制,並使用輝達Cosmos Reason實現更好的推理和上下文理解。輝達稱,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技業的領頭羊正在採用並基於輝達的開源模型技術進行開發。輝達的開源模型、資料和框架現已在GitHub和Hugging Face平台發佈,並可通過一系列雲、推理和AI基礎設施平台以及build.nvidia.com獲取。這些模型中的許多還以輝達NIM微服務的形式提供,可在從邊緣到雲端的任何輝達加速基礎設施上進行安全、可擴展的部署。 (華爾街見聞)
【CES 2026】黃仁勳:Vera Rubin 已進入生產,NVIDIA 押注 2026 下半年新一代 AI 平台
一、“已在生產、按期交付”:這次 NVIDIA 在強調什麼黃仁勳在拉斯維加斯 CES 的台上,把一句話說得很直白:Rubin 平台“在生產中”,而且客戶很快就能開始試用,並把時間窗錨定到 2026 年下半年。這種表述的價值,不在於多了一個新名字,而在於它等於在公開場合給路線圖打了一個“里程碑戳”。原因也不難理解。上一代 Blackwell 曾出現過工程與量產節奏上的波折,市場對“下一代是否會再被拖慢”天然敏感。Wired 提到,“full production”這類表述本身並沒有統一、嚴格的行業定義,但分析師往往會把它當成對投資者的訊號:項目在關鍵節點上沒有掉鏈子。與此同時,外部需求確實在推著 NVIDIA 必須更早、更明確地給出交付預期。Bloomberg 的報導強調了“客戶將很快能夠試用”的說法,背後反映的是雲廠商、AI 資料中心營運商對下一代平台匯入節奏的迫切。二、Rubin 不是一顆晶片:NVIDIA 把“六件套”當作產品在 NVIDIA 的敘事裡,Rubin 不再是“某一顆 GPU”,而是一個極端協同設計的六晶片平台。官方新聞稿與 NVIDIA 博文把這套組合列得很清楚:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch。這一套“六件套”的指向,是把資料中心裡原本分散的計算、互連、網路、安全與加速部件,做成可重複交付、可規模化部署的系統工程。你買到的不是“更快的卡”,而是更接近“可直接拼裝成 AI 工廠”的平台底座。Wired 也把這種轉變描述為:NVIDIA 正在把自己從晶片供應商進一步推向“AI 系統提供商”。對讀者來說,理解這裡的關鍵,是不要被命名繞暈:Vera 是 CPU,Rubin 是 GPU,它們與 NVLink、網路卡、DPU、交換晶片一起,被 NVIDIA 當成一個“從機櫃到機房”的系統方案賣給合作夥伴,再由合作夥伴賣給終端客戶。三、性能與成本口徑:那些是官方宣稱,那些需要謹慎理解CES 的舞台天然需要“高能句”。The Verge 總結了 NVIDIA 在演講中最吸睛的幾組口徑:Rubin GPU 的訓練性能相對 Blackwell 可達 5 倍;在某些 “mixture of experts(MoE)” 模型上,整套 Vera Rubin 架構能用約四分之一的 GPU完成訓練,同時把 token 成本降到約七分之一。Wired 則提到 NVIDIA 的另一種表達方式:AI 運行成本可降到 Blackwell 的十分之一量級,並同樣強調“用更少的晶片訓練更大的模型”。這些話可以引用,但不能照單全收。原因不是懷疑其真假,而是它們幾乎都隱含了前提:比較基線是什麼(Blackwell 的那種配置:單卡、HGX、還是 NVL 機櫃級系統);工作負載是什麼(訓練、推理、還是特定 MoE 架構/特定精度);系統瓶頸在那裡(算力、視訊記憶體頻寬、互連、網路、儲存、軟體棧成熟度)。換句話說,這些“倍數級提升”是 NVIDIA 在“整機視角”下給出的系統宣稱,而不是一顆晶片的裸性能。NVIDIA 自己在新聞稿裡也把重點放在“極端協同設計”“降低訓練時間與 token 成本”這種系統指標上。更值得寫清楚的一點是:這些指標的意義,正從“更快”轉向“更便宜”。當大模型應用開始從訓練走向海量推理、從實驗走向規模化部署,客戶最關心的不再只是峰值吞吐,而是每個 token 的成本、每瓦性能、以及在真實資料中心裡“擴起來是否順”。這也是為什麼 NVIDIA 在 CES 上把“成本口徑”放到了和“性能口徑”同等的位置。四、從機櫃到“AI工廠”:NVL72 這類系統化交付意味著什麼如果說“六件套”是概念,那麼 Vera Rubin NVL72 就是把概念變成交付形態的樣板。NVIDIA 的產品頁把 NVL72 定義為機櫃級 AI 超級電腦:72 塊 Rubin GPU + 36 顆 Vera CPU,並配套 ConnectX-9、BlueField-4、NVLink 6,以及面向外部擴展的 InfiniBand 與乙太網路方案。機櫃級方案最大的好處,是把資料中心的複雜度從“現場工程”變成“工廠化裝配”。Barron’s 提到,Rubin 的伺服器系統會更模組化、減少線纜,目標是讓裝配與維護更快。這類變化看似“工程細節”,但對大規模部署來說極其關鍵:裝得更快,意味著新機房上線周期更短;維護更像換模組,意味著停機時間更可控;系統化交付越成熟,越容易複製到更多機房與更多地區。更“硬核”的細節也在浮出水面。CRN 報導中引用了 NVIDIA 對 NVL72 的參數描述:整櫃 HBM4 容量可達 20.7TB,並給出了 LPDDR5x 容量、HBM4 頻寬與互連頻寬等指標,用來強化“系統頻寬”是這一代的核心敘事。Tom’s Hardware 則進一步提到 Rubin GPU 的封裝與 HBM4 配置(如每個封裝的 HBM4 容量與頻寬口徑),同樣指向“為了喂飽算力,視訊記憶體與頻寬在同步升級”。當 NVL72 變成主打形態,NVIDIA 其實在把競爭拉到更高維度:不是你能不能做出一顆晶片,而是你能不能把晶片、互連、網路、安全、軟體一起打包成“可落地、可維運、可擴張”的資料中心機器。五、競爭線:自研晶片、供應鏈與“按期交付”的資本市場含義NVIDIA 當然不是唯一想吃下 AI 資料中心的人。雲廠商在推進自研晶片,晶片創業公司與傳統半導體公司也在尋找突破口。Wired 在報導裡提到,在這種競爭壓力下,NVIDIA 更需要向外界證明兩件事:一是路線圖清晰,二是交付節奏可靠。因此,“已在生產、下半年交付”不僅是工程進度的匯報,也是資本市場溝通的一部分——它把不確定性從“會不會來”收斂到“什麼時候規模化、以什麼形態規模化”。Bloomberg Law 的轉述提到,黃仁勳表示六顆晶片已從製造夥伴處返回,並通過了一些里程碑測試,暗示項目正沿著預定軌道推進。但真正決定 Rubin 能不能延續 NVIDIA 的優勢,仍然取決於更具體、也更難在發佈會上講清的變數:供應鏈與產能爬坡:先進製程、先進封裝與高頻寬記憶體的任何一個環節都可能成為節奏瓶頸;軟體棧與生態遷移:平台化交付意味著客戶不僅換硬體,還要評估相容性與維運體系;Wired 提到 NVIDIA 與 Red Hat 等合作,也可被視為在補齊“平台落地”的軟體側能力。客戶匯入速度:報導提及微軟與 CoreWeave 等潛在早期採用者與資料中心計畫,這類客戶的匯入節奏往往會成為“新平台能否滾起來”的風向標。 (視界的剖析)
【CES 2026】黃仁勳炸場:全新Rubin平台量產,AI推理成本降至十分之一,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作
黃仁勳 CES 2026主題演講:全新Rubin平台正式量產,AI推理成本降至十分之一,推進機器人和自動駕駛生態,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作1. Nvidia與奔馳合作推出Level 2自動駕駛系統,2026年大規模商用要點一:舊金山路測表現出色,可與特斯拉FSD競爭Nvidia在CES 2026上展示了其全新的點對點Level 2駕駛輔助系統,在舊金山約40分鐘的實際道路測試中,該系統搭載在2026款奔馳CLA轎車上,成功應對了複雜的城市交通場景,包括交通訊號燈、四向停車標誌、雙排停車車輛和無保護左轉等情況。Nvidia汽車部門負責人Xinzhou Wu透露,該系統在城市駕駛中的人工接管次數與特斯拉FSD相當,但特斯拉用了約8年才實現城市駕駛功能,而Nvidia預計在約1年內就能達成同樣目標。The Verge要點二:2026年分階段推出,2027-2028年推進L4自動駕駛根據Nvidia的產品路線圖,2026年上半年將發佈支援高速公路和城市駕駛的Level 2系統,包括自動變道、停車標誌和交通訊號識別等功能;下半年將增加自動泊車能力,年底前將覆蓋整個美國。該系統基於Drive AGX Orin晶片,2026年計畫開展小規模L4等級試點,2027年將實現合作夥伴機器人計程車部署,2028年將進入個人擁有的自動駕駛汽車。奔馳CEO Ola Kallenius表示,與Nvidia合作的核心在於安全性,強調"駕駛一個重達4000磅、時速50英里的物體,抱歉是不夠的,必須要有更高的確定性和安全性。"The Verge2. Nvidia發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作要點一:推出業內首個開源推理型自動駕駛AI模型Nvidia在CES 2026上宣佈推出Alpamayo系列自動駕駛AI模型、工具和資料集,這是專為Level 4自動駕駛設計的推理型視覺-語言-行動(VLA)模型,能夠讓車輛像人類一樣感知、推理和行動。該系列包括Alpamayo-1(一個擁有100億參數的鏈式思考VLA模型,已在Hugging Face開源)、AlpaSim(開源端到端模擬框架)以及超過1,700小時駕駛資料的物理AI開放資料集。該模型不僅能接收感測器輸入並控制方向盤、剎車和加速,還能對即將採取的行動進行推理。Constellation Research要點二:奔馳成為首個商用合作夥伴,2026年一季度上路Nvidia CEO黃仁勳宣佈,搭載Alpamayo的首款乘用車將是全新奔馳CLA,該車將採用Nvidia DRIVE全端自動駕駛平台,預計2026年第一季度在美國道路上推出。這一合作歷時至少5年,投入數千名工程師,建構了完整的垂直整合系統。奔馳CLA最近獲得了EuroNCAP五星安全評級。黃仁勳表示:"Nvidia將長期支援這些模型和自動駕駛系統,因為自動駕駛工作是通向機器人技術的橋樑。"此外,Lucid、捷豹路虎、Uber和伯克利DeepDrive也對Alpamayo表示出濃厚興趣。Nvidia Blog | Constellation Research3. 波士頓動力與GoogleDeepMind達成AI合作,Gemini機器人模型將整合至Atlas人形機器人要點一:雙方聯合研發,提升人形機器人物體操控和工業任務能力波士頓動力和GoogleDeepMind在CES 2026上宣佈建立新的AI合作夥伴關係,旨在將DeepMind的Gemini Robotics基礎模型整合到波士頓動力的新一代Atlas人形機器人中。該合作將結合波士頓動力的運動智能與DeepMind的基礎AI能力,重點使人形機器人能夠完成各種工業任務,預計將成為製造業轉型的驅動力,首先從汽車行業開始。聯合研究工作預計將在未來幾個月內在兩家公司同時展開。Boston Dynamics要點二:利用多模態基礎模型,讓機器人具備感知、推理和人機互動能力波士頓動力Atlas項目機器人行為總監Alberto Rodriguez表示:"我們正在打造世界上最強大的人形機器人,我們需要一個能夠幫助我們建立新型視覺-語言-行動模型的合作夥伴,用於這些複雜的機器人。在全世界範圍內,沒有人比DeepMind更適合建構可以安全、高效地部署在各種任務和行業的可靠、可擴展模型。"DeepMind機器人技術高級總監Carolina Parada表示,Gemini Robotics模型基於大規模多模態Gemini模型建構,旨在讓任何形狀和大小的機器人都能感知、推理、使用工具並與人類互動。該合作由波士頓動力的大股東現代汽車集團支援。Boston Dynamics4. Nvidia CES 2026主題演講:發佈Rubin平台,AI算力提升5倍,推進機器人和自動駕駛生態要點一:全新Rubin平台正式量產,AI推理成本降至十分之一Nvidia CEO黃仁勳在CES 2026主題演講中宣佈,公司首個極致協同設計的六晶片AI平台Rubin已進入全面量產。該平台包括Rubin GPU(提供50 petaflops的NVFP4推理性能)、Vera CPU(專為資料移動和智能體處理設計)、NVLink 6擴展網路、Spectrum-X乙太網路光子學、ConnectX-9 SuperNIC和BlueField-4 DPU。Rubin平台承諾將AI token成本降低到原來的十分之一,訓練混合專家模型所需的GPU數量減少至四分之一,並推出AI原生儲存平台,將長上下文推理的每秒token數提高5倍。黃仁勳強調:"你訓練AI模型越快,就能越快將下一代前沿技術推向世界。這關乎你的上市時間,這關乎技術領導力。"Nvidia Blog要點二:發佈Cosmos世界基礎模型和開源物理AI生態系統黃仁勳展示了Nvidia Cosmos開放世界基礎模型,該模型在視訊、機器人資料和模擬資料上訓練,能夠從單張圖像生成逼真視訊、合成多攝影機駕駛場景、從場景提示建模邊緣案例環境,並執行物理推理和軌跡預測。演講中還展示了個人AI智能體在Nvidia DGX Spark桌面超級電腦上本地運行,並通過Reachy Mini機器人具身化的演示。黃仁勳宣佈Nvidia在六個領域建構開源前沿AI模型:Clara(醫療健康)、Earth-2(氣候科學)、Nemotron(推理和多模態AI)、Cosmos(機器人和模擬)、GR00T(具身智能)和Alpamayo(自動駕駛),並強調與西門子擴大合作,將Nvidia全端與西門子工業軟體整合。Nvidia Blog5. 阿里巴巴高德地圖推出AI 3D餐廳展示工具,對標美團爭奪本地生活市場要點一:基於通義萬相視覺模型,餐廳上傳照片或視訊即可生成3D圖像據彭博社報導,阿里巴巴旗下地圖和本地生活服務部門高德地圖即將推出一項AI功能,允許餐廳通過上傳視訊或照片來渲染3D圖像。該技術基於阿里巴巴的通義萬相(Wan)視覺模型,旨在降低商戶的行銷和推廣成本。熟悉該事項的人士透露,阿里巴巴計畫向部分商家免費提供這項技術一段時間。這一舉措是阿里巴巴在中國餐飲和外賣領域與美團競爭的更廣泛努力的一部分。Bloomberg要點二:強化本地生活服務佈局,挑戰美團市場主導地位此次推出3D餐廳展示工具,是阿里巴巴利用AI技術加強與美團在本地生活服務市場競爭的最新動作。美團目前在中國外賣市場、餐廳預訂和本地服務領域佔據主導地位。通過提供更具視覺吸引力的餐廳展示方式,高德地圖希望吸引更多商戶和使用者,擴大其在本地生活服務領域的市場份額。這一策略體現了阿里巴巴將AI技術應用於實際商業場景,以技術創新推動業務增長的思路。Bloomberg6. MiniMax香港IPO定價觸頂至21美元,AI熱潮推動估值達65億美元要點一:定價HK$165觸及區間上限,提前一天停止接受訂單據彭博社報導,上海AI初創公司MiniMax計畫將其香港IPO定價定在每股HK約美元達到其營銷區間的頂部151-HK。知情人士透露該公司通知投資者將以165的價格出售股票,並計畫在當地時間下午5點停止接受機構投資者的訂單,比預期提前一天。MiniMax於2025年12月31日啟動IPO路演,計畫發行2,538.92萬股新股。按最高定價計算,此次IPO將籌集至少42億港元(約5.38億美元),對MiniMax的估值約為65億美元。Bloomberg | Reuters要點二:獲阿里巴巴和騰訊支援,AI熱潮下需求強勁MiniMax得到了阿里巴巴集團和騰訊控股的支援,在AI熱潮的推動下,其IPO展現出強勁的訂單勢頭。該公司專注於生成式AI技術,提供包括文字生成、對話系統等多項AI服務。此次頂格定價和提前停止認購,反映出投資者對中國AI企業的強烈興趣。分析師指出,MiniMax的成功上市將為香港資本市場帶來活力,也體現了全球投資者對中國AI創新能力的認可。該IPO預計將於2026年1月初完成定價。Seeking Alpha7. 富士康Q4營收同比增長22%至827億美元,AI和雲端運算需求強勁創紀錄要點一:Q4營收超預期,12月單月營收同比增長32%創歷史新高台灣富士康(鴻海精密)於2026年1月5日公佈,2025年第四季度營收達到新台幣2.6兆元(約827億美元),同比增長22.07%,環比增長26.51%,創下季度營收歷史新高,超過路孚特SmartEstimate預測的2.418兆新台幣。12月單月營收達到新台幣8,628.6億元(約274.2億美元),同比增長31.77%,創下該月份歷史紀錄。富士康表示,第四季度營收增長顯著超出預期,為2026年第一季度創造了較高的對比基數。Reuters要點二:雲端運算和網路產品業務強勁,AI伺服器需求持續旺盛富士康稱,增長主要由雲端運算和網路產品部門的強勁表現驅動,這得益於AI產品需求的激增。作為輝達最大的伺服器製造商和蘋果最大的iPhone組裝商,富士康2025年全年銷售額首次突破新台幣8兆元大關。該公司表示,儘管2026年第一季度資訊通訊技術產品將進入季節性放緩期,但AI伺服器機架產品的強勁需求預計將使業績處於過去五年區間的高端。富士康還指出,智能消費電子產品部門(包括iPhone)由於匯率不利影響,營收出現小幅下降。Reuters8. 阿里巴巴PANDA AI工具助力醫院發現24例胰腺癌,自2024年11月分析超18萬例CT掃描要點一:AI在常規CT掃描中發現早期胰腺癌,提前挽救患者生命據《紐約時報》報導,中國寧波大學附屬人民醫院自2024年11月作為臨床試驗開始使用阿里巴巴達摩院開發的PANDA(Pancreatic Cancer Detection with Artificial Intelligence,胰腺癌人工智慧檢測)AI工具以來,已分析超過18萬例腹部或胸部CT掃描,幫助醫生檢測出約24例胰腺癌病例,其中14例處於早期階段。該院胰腺科主任朱克雷醫生表示:"我認為可以百分之百地說,AI拯救了他們的生命。"PANDA工具被訓練用於在非對比CT掃描中尋找胰腺癌,這些患者最初因腹脹或噁心等症狀就診,並未直接看胰腺專科醫生,部分CT掃描在被AI工具標記之前並未引起警報。New York Times要點二:通過深度學習突破非對比CT侷限,獲FDA突破性裝置認證PANDA工具利用深度學習技術,通過演算法將2000多名已知胰腺癌患者的對比CT掃描中的病灶位置對應到同一患者的非對比CT掃描上,訓練AI模型在清晰度較低的圖像中檢測潛在癌症。在超過2萬例非對比CT掃描的測試中,該工具正確識別了93%的胰腺病變患者,研究結果發表在2023年《自然醫學》雜誌上。2025年4月,阿里巴巴宣佈PANDA獲得美國FDA"突破性裝置"認證,意味著其審查將被加速以幫助其進入市場。胰腺癌是最致命的癌症之一,五年生存率約為10%,早期檢測極其困難。在寧波醫院,非對比CT檢查費用約為25美元(保險前),該系統正在分析醫生已為其他原因訂購的掃描,因此不會給醫院或患者增加額外檢查成本。New York Times9. Instagram Reels年化收入達500億美元,成為Meta最大增長引擎要點一:五年從零到500億,超越可口可樂和耐克年收入據《華爾街日報》報導,Meta旗下Instagram的短影片功能Reels在2025年第三季度實現了超過500億美元的年化收入營運率(annual run rate)。Meta CEO馬克·祖克柏在2025年10月的財報電話會議上表示:"隨著視訊在我們的應用中持續增長,Reels現在的年化收入已超過500億美元。"這一數字令人震驚,因為Reels於2020年推出時僅是對TikTok的模仿,當時沒有任何收入。五年後,其收入規模已經接近可口可樂和耐克的年收入水平,成為Meta最重要的增長業務之一。WSJ要點二:使用者參與度超越YouTube Shorts,AI推薦系統功不可沒報導指出,Instagram使用者在Reels上花費的時間已經超過YouTube Shorts的觀眾觀看時長。Meta第三季度總營收為512.4億美元,同比增長26%,其中Family of Apps(應用家族)收入達到508億美元,Reels的貢獻佔比可觀。祖克柏將Reels的成功歸功於推薦系統的改進和AI技術的應用,這些技術提高了內容的相關性和使用者參與度。分析師認為,Reels已經從簡單的TikTok複製品轉變為Meta的戰略性AI資產,推動了整個平台的廣告收入增長。創作者經濟的蓬勃發展和AI驅動的變現能力是Reels取得成功的關鍵因素。AInvest10. DeepSeek為聊天機器人新增"交錯思考"功能,月活使用者激增90%至1.315億要點一:推出"交錯思考"深度研究模式,提升複雜查詢處理能力據《南華早報》報導,總部位於杭州的AI初創公司DeepSeek對其旗艦聊天機器人的使用者介面進行了更新,新增了名為"交錯思考"(interleaved thinking)的高級功能。這一功能類似於OpenAI的深度研究(Deep Research)產品,可以執行多步驟研究,在整個過程中穿插"思考"步驟。此前,聊天機器人在生成響應之前會"思考"使用者提供的提示,而"交錯思考"允許模型在每個操作之間進行"思考",增強其研究能力。例如,在打開網頁後,模型可能需要"思考"所讀資訊的可信度,然後決定是否查閱另一份檔案來驗證發現。這一過程對於處理複雜查詢至關重要。South China Morning Post要點二:12月月活使用者暴增90%,新一代模型備受期待報導指出,DeepSeek在2025年12月的月活躍使用者數激增90%,達到近1.315億。《南華早報》測試顯示,DeepSeek的聊天機器人並非總是部署"深度研究"模式,除非收到複雜的查詢提示。一旦該功能被啟動,使用者能夠看到"交錯思考"過程的每一步。這些升級標誌著DeepSeek在消費端的罕見改進,正值業界對其下一代模型的期待不斷升溫之際。分析師指出,隨著DeepSeek在AI模型性能和使用者體驗上的持續最佳化,該公司正在中國AI市場中鞏固其領先地位,並對國際競爭對手構成越來越大的挑戰。South China Morning Post11. 中國量化基金幻方推出iQuest-Coder AI模型,僅400億參數擊敗GPT-5.1和Claude Sonnet 4.5要點一:開放原始碼AI模型在多項基準測試中超越美國競爭對手據《南華早報》報導,總部位於北京的量化交易公司幻方量化(Ubiquant)於2026年1月初發佈了一系列開放原始碼專注型大語言模型iQuest-Coder-V1系列,該系列模型在多項基準測試中聲稱能夠匹敵甚至超越美國競爭對手如OpenAI的GPT-5.1和Anthropic的Claude Sonnet 4.5,儘管使用的參數數量遠少於後者。iQuest-Coder-V1系列專為程式碼智能設計,擅長自動程式設計、偵錯和程式碼解釋等任務,包括70億、140億和400億參數的模型,遠小於GPT-5.1和Claude Sonnet 4.5等領先閉源系統的參數規模(通常在4000億至8000億參數之間)。South China Morning Post要點二:基準測試成績亮眼,400億參數模型比肩國際頂尖水平根據自報資料,iQuest-Coder-V1-40B-Loop-Instruct在SWE-bench Verified基準測試中得分76.2%,接近Claude Sonnet 4.5的77.2%和GPT-5.1的76.3%。該基準測試衡量AI模型解決真實世界軟體工程問題的能力。在BigCodeBench測試中(該測試評估LLM在解決實際且具有挑戰性的程式設計任務方面的表現,不存在污染),該模型得分49.9%,超過Gemini 3 Pro Preview的47.1%和GPT-5.1的46.8%。此外,在LiveCodeBench v6測試中,該模型也展現出色表現。幻方量化繼DeepSeek之後成為中國量化基金進軍AI領域的又一案例,展示了中國金融科技公司在AI研發方面的強大實力和創新能力。South China Morning Post (AI Daily Insights)
300億美元!AI醫療史上最大獨角獸誕生,華爾街傳奇投資人創業,徹底顛覆醫療保健!
據路透社報導,資深投資人馬特·霍爾特(Matt Holt)正式卸任新山資本(New Mountain Capital)私募股權董事總經理兼總裁一職,並啟動一項規模高達300億美元的標誌性交易。霍爾特計畫收購老東家新山資本旗下最成功的五家醫療科技公司,並將其合併到其新創立的AI醫療平台——Thoreau。這五家公司分別是:健康資料交換巨頭Datavant、AI理賠最佳化平台Machinify、精準醫療行銷商Swoop、醫療流程自動化公司Smarter Technologies 以及電子醫療記錄平台Office Ally。本次交易的核心邏輯在於“AI重塑醫療”:霍爾特的目標是,通過將這五家分佈在資料、支付和營運環節的頂尖企業整合在一起,Thoreau將建構起一個由AI驅動的全自動醫療支付與資料流轉平台,從而大幅提高醫療效率、降低成本。知情人士透露,霍爾特長期在中東地區籌集資金以支援該交易,目前英國資產管理巨頭ICG (Intermediate Capital Group) 已確定作為主要出資方。對於新山資本而言,這筆交易或許將成為其最賺錢的一筆交易:預計帶來約140億美元的綜合收益,其中包括約120億美元的現金回籠以及在新公司Thoreau中保留的股權。新山資本成立於1999年,是一家總部位於紐約的頂級私募基金和另類資產管理公司,當前管理資產規模約600億美元。據悉,這筆交易將於2026年上半年完成交割。如果成功,Matt Holt將實現從“投資人”到“企業家”的轉身,執掌一家估值300億美元的AI醫療巨頭。手握6000萬資料 美國最大健康資料商五家企業中,健康資料企業Datavant是最知名的一家。該公司於2018年從以“撿漏”聞名的藥企Roivant中分拆出來,在2021年該公司以70億美元與健康服務企業Ciox Health完成合併,正式成為美國最大的健康資料公司。目前該公司手握超過6000萬條醫療記錄,擁有超過8萬家診所、醫院及醫療系統合作夥伴,覆蓋前20大生命科學公司、100%的美國支付方。其特色連結技術可在嚴格遵守隱私標準的前提下,實現數千萬份醫療記錄的安全傳輸,且不洩露個人身份資訊。建立在海量醫療資料之上,餘下的四家企業分別在支付、行銷、院內管理、醫療帳單等方面有所專長。Machinify是通過AI簡化醫療支付流程的平台,在今年一月被新山資本收購,估值為50億美元,擁有超過5億美元的收入,服務於13個前20名支付方。專注於行銷領域的Swoop手握醫療領域最大的病友社區之一My Health Team,該社區擁有450萬慢性病和罕見病註冊會員。Smarter Technologies則是利用AI降低醫療行政成本的企業,擁有業內首套AI驅動的收入周期管理(RCM)系統,目前服務超過60多家醫院和醫療系統,處理超過4億筆交易。Office Ally是為醫療機構提供雲端清算的帳單軟體,擁有超過8萬家醫療機構客戶,每年處理超過9.5億筆交易。華爾街傳奇投資人創業 誓要重塑醫療而本次交易的主角,馬特·霍爾特(Matt Holt)與新山資本(New Mountain Capital)的故事,是一部典型的“從零到一”的華爾街傳奇。新山資本成立於1999年,由前高盛資深銀行家史蒂文·克林斯基(Steven Klinsky)創立。彼時正值網際網路泡沫巔峰,但克林斯基卻選擇了一條與眾不同的道路:避開當時炙手可熱的科技初創企業,轉而專注於“防禦性增長”(Defensive Growth)策略——即投資於經濟周期波動中仍能保持穩定現金流、具備長期結構性優勢的非周期性行業,如醫療健康、軟體、商業服務和教育等。這一理念在隨後的多次金融危機中被證明極具前瞻性。無論是2008年全球金融海嘯,還是2020年新冠疫情引發的市場震盪,新山資本憑藉其穩健的投資組合始終維持了優異的回報表現。其管理資產規模也從最初的幾億美元一路飆升至如今的約600億美元,成長為全球領先的另類資產管理公司之一。馬特·霍爾特的職業生涯幾乎與新山資本的成長史重合。1999 年,他從哈佛大學文學系畢業,最初在雷曼兄弟的併購部門磨練兩年。2001 年,年僅 24 歲的霍爾特加入了剛剛成立兩年的新山資本。Matt Holt克林斯基親自面試並錄用了霍爾特,後者展現出了超越同齡人的行業洞察力,尤其是在醫療健康這一極具壁壘的領域。在隨後的二十多年裡,霍爾特一路晉陞,從分析師到董事總經理,再到擔任新山資本私募股權業務總裁。克林斯基曾在公開場合評價霍爾特是“公司最成功的投資人之一”,他不僅負責管理該機構最核心的私募類股,還一手打造了其龐大的醫療投資帝國。在霍爾特的領導下,新山資本將醫療健康從傳統的“重資產、重監管”行業,重新定義為“效率驅動的技術服務”行業。霍爾特的策略是:不投醫院(提供者),而投讓醫院變高效的工具(技術服務)。他深信美國醫療系統的癥結在於效率低下和資料孤島。因此,在他的推動下,新山資本陸續投資了多家醫療科技公司,包括Avantor(生命科學工具商)這樣的行業標竿。經過二十多年的積累,霍爾特認為醫療行業的數位化已經到了“大整合”的關鍵階段——分散的五家公司,如果在同一個平台下利用統一的AI引擎運作,其產生的協同效應將遠超獨立運作。因此,在獲得ICG等財團的支援後,他選擇帶著這些他親手挑選、培育的“孩子”獨立,成立 Thoreau(意為從複雜中尋找簡單的真理)。這筆交易的背景,不僅僅是資本的騰挪,更是一個頂級投資人在深耕一個行業二十年後,試圖用實業家的身份,去完成他未竟的理想:利用技術徹底重塑醫療系統的底層邏輯。 (智藥局)